许多领域的研究表明,转移学习(TL)非常适合提高具有少量样品的数据集中深度学习(DL)模型的性能。这种经验成功引发了对具有功能神经影像数据的认知解码分析的应用的兴趣。这里,我们系统地评估了从全脑功能磁共振成像(FMRI)数据的认知状态(例如,观看面部或房屋图像)的解码的TL。我们首先在大型公共FMRI数据集中预先列出两个DL架构,随后在独立实验任务和完全独立的数据集中评估其性能。预先训练的模型始终如一地达到更高的解码精度,并且通常需要较少的训练时间和数据,而不是模型变形,这些模型变体没有预先接受培训,明确强调预制培训的好处。我们证明,这些益处是由于预先训练的模型在使用新数据培训时重用了许多学习功能的这些益处,从而深入了解导致预训练的好处的机制。然而,在解释预先训练模型的解码决策时,我们还通过DL模型对全脑认知解码进行了差别挑战,因为这些已经学会了在不可预见的情况下利用FMRI数据和识别单个认知状态的违反直觉方式。
translated by 谷歌翻译